La proactivité : du descriptif au prédictif
Il faut parler en premier lieu de la connaissance du client, grâce à laquelle Netflix ou Opodo ont réussi à conquérir d’énormes marchés. En constituant de vastes bases de données sur les activités de leurs utilisateurs, de nombreux outils (moteurs de recommandations, prix variables) ont pu être déployés.
Aujourd’hui, décrire simplement le comportement d’un client ne suffit plus. Il faut être proactif dans sa relation, passer du descriptif au prédictif afin de se positionner en amont des besoins, avant même que ceux-ci ne soient exprimés. Par exemple, Orange a mis en œuvre ce concept en déployant un système de détection des box foudroyées afin d’en proposer une nouvelle à ses clients avant même que ceux-ci ne la demande. Résultats ? Un retour sur investissement de 2.8 M€ dès la première année et d’excellents retours clients.
Une veille en amont : la clef pour anticiper
Cette proactivité ne doit pas seulement s’exprimer dans la relation client mais dans l’architecture même de l’entreprise. La réussite d’un projet sur les données passera donc en premier lieu par la formation d’une équipe mixte constituée à la fois d’experts techniques et fonctionnels. Les premiers sont en effet indispensables pour la réalisation et le déploiement, mais pas seulement car il est en plus nécessaire de mettre en place une veille technologique.
En effet, les outils les plus performants au terme du projet ne seront pas encore conçus au début de celui-ci. Il faudra alors migrer sur les nouvelles solutions afin de ne pas être limité par une architecture dépassée.
C’est ce qui est arrivé à Mappy, confronté à la lenteur des calculs générée par la taille de ses bases (plus de 2,5 milliards de lignes). La société a donc conçu une application en interne, Indexima, qui, en court-circuitant les technologies du marché, a divisé par mille le temps de calcul. Bel exemple d’agilité et de proactivité.
Le big data en temps réel
Il faut enfin accélérer les processus afin de s’approcher du temps réel, identifié comme étant un des axes d’évolution majeurs au cours du salon big data à Paris tenu les 7 et 8 mars derniers. Découpler la captation et l’analyse des données n’est plus pertinent. L’ensemble doit être simultané afin d’être plus réactif dans les domaines de la finance ou la cyber-sécurité. L’émergence de nouveaux modules tels que Storm ou l’utilisation des langages fonctionnels tels que Scala à la place de SQL, prouve que le temps réel commence à être placé au cœur des problématiques big data. Ebay a récemment lancé Pulsar. MapR ou Cloudera ont renforcé leurs capacités dans ces domaines. Une piste à étudier pour débuter une veille technologique.
Il faut parler en premier lieu de la connaissance du client, grâce à laquelle Netflix ou Opodo ont réussi à conquérir d’énormes marchés. En constituant de vastes bases de données sur les activités de leurs utilisateurs, de nombreux outils (moteurs de recommandations, prix variables) ont pu être déployés.
Aujourd’hui, décrire simplement le comportement d’un client ne suffit plus. Il faut être proactif dans sa relation, passer du descriptif au prédictif afin de se positionner en amont des besoins, avant même que ceux-ci ne soient exprimés. Par exemple, Orange a mis en œuvre ce concept en déployant un système de détection des box foudroyées afin d’en proposer une nouvelle à ses clients avant même que ceux-ci ne la demande. Résultats ? Un retour sur investissement de 2.8 M€ dès la première année et d’excellents retours clients.
Une veille en amont : la clef pour anticiper
Cette proactivité ne doit pas seulement s’exprimer dans la relation client mais dans l’architecture même de l’entreprise. La réussite d’un projet sur les données passera donc en premier lieu par la formation d’une équipe mixte constituée à la fois d’experts techniques et fonctionnels. Les premiers sont en effet indispensables pour la réalisation et le déploiement, mais pas seulement car il est en plus nécessaire de mettre en place une veille technologique.
En effet, les outils les plus performants au terme du projet ne seront pas encore conçus au début de celui-ci. Il faudra alors migrer sur les nouvelles solutions afin de ne pas être limité par une architecture dépassée.
C’est ce qui est arrivé à Mappy, confronté à la lenteur des calculs générée par la taille de ses bases (plus de 2,5 milliards de lignes). La société a donc conçu une application en interne, Indexima, qui, en court-circuitant les technologies du marché, a divisé par mille le temps de calcul. Bel exemple d’agilité et de proactivité.
Le big data en temps réel
Il faut enfin accélérer les processus afin de s’approcher du temps réel, identifié comme étant un des axes d’évolution majeurs au cours du salon big data à Paris tenu les 7 et 8 mars derniers. Découpler la captation et l’analyse des données n’est plus pertinent. L’ensemble doit être simultané afin d’être plus réactif dans les domaines de la finance ou la cyber-sécurité. L’émergence de nouveaux modules tels que Storm ou l’utilisation des langages fonctionnels tels que Scala à la place de SQL, prouve que le temps réel commence à être placé au cœur des problématiques big data. Ebay a récemment lancé Pulsar. MapR ou Cloudera ont renforcé leurs capacités dans ces domaines. Une piste à étudier pour débuter une veille technologique.
Autres articles
-
[Promotion] Livre Blanc Alteryx : La science des données en pratique
-
Maîtriser ses données sur le Cloud : l'ESILV apprend aux étudiants à dompter le Big Data sur 120 machines
-
De quelle façon trois générations de disques durs Toshiba ont aidé le plus grand laboratoire de physique du monde à conserver, chaque seconde, des centaines de téraoctets de données générées par les expériences du LHC
-
Big Data & Big Brother : de l’intérêt de connaître notre ADN
-
Livre : Big Data, le traitement streaming et temps réel des données